Computer Engineering
Mathematics II
Mathematics II
Chapter 12
Curve Fitting
(Last)
• บ่อยๆครั้ง เราได ้ข ้อมูลจากการวัดในสนาม ซึ่งมี
ลักษณะเป็นจุด และเราจะต ้องการหา Function
ทางคณิตศาสตร์เพื่อเชื่อมต่อจุดเหล่านี้
• Function ง่ายๆที่ใช ้กันคือ Polynomial ที่
Degree ต่างๆ
• Function ที่สลับซับซ ้อนขึ้นได ้แก่ Cosine
Function
• กรรมวิธีเหล่านี้ เพื่อที่จะหาค่าของ Function ที่อยู่
ระหว่างจุดที่เราวัด ซึ่งเราเรียก Interpolation
y
x
y
x
Interpolation
y
x
Interpolation
y
x
• ไม่นิยมใช ้ เพราะจะเกิดการ Oscillate ได ้
• Function ที่รอยต่อของ Polynomial จะไม่
ต่อเนื่อง
• N Degree จะใช ้ N+1 จุดสําหรับหาค่าของ
Function
• เป็นการใช ้ Polynomial Degree ตํ่าๆ ที่นิยมคือ Third Degree หรือ Cube
– เรียก Cubic Spline
• Cubic Spline จะหา Polynomial จากทีละ 2 จุด(ไม่ใช่ 4) แต่บังคับให ้รอยต่อระหว่างแต่ละ Polynomial มีความ
ต่อเนื่อง โดยกําหนดให ้ Polynomial ที่ต่อกันมี First Derivative และ Second Derivative เท่ากัน
• 2 จุดได ้ 2 สมการ บวกกับอีกสองสมการของ First และ
Second Derivative เป็น 4 สมการ 4 Unknown
• ที่ปลายและหัวจะสมมุติ First Derivative จากสมการ
เส ้นตรง และสมมุติ Second Derivative เท่ากับศูนย์ วิธีนี้
เราเรียก Natural Spline
• เป็นวิธีที่นิยมมากกว่า
y
x
Interpolation (1)
• พิจารณาจากจุดของตัวอย่าง ( x , y ); i i
i
= ,...,
0
n −1
• เราต ้องการลาก Curve ผ่านจุดเหล่านี้ โดยใช ้
Third Degree Polynomial
2
3
y = f ( x) = a + a x + a x + a x 3
0
1
2
3
– มี 4 Unknown ที่ต ้องหา ดังนั้นต ้องสร ้าง 4 สมการ และ
ใช ้ 4 จุดของ Data ในการแก ้
– ผลคือ 3rd Degree Polynomial จะลากผ่านทีละ 4 จุด
ดังนั้นจะมีรอยต่อทุกๆ 4 จุด ที่ไม่ราบเรียบ เนื่องจากแต่
ละ 4 จุดจะใช ้ Polynomial คนละตัวกัน
– Polynomial ที่ต่อกันจะใช ้จุดร่วมกันที่รอยต่อ
Interpolation (2)
• Example: กําหนด Data 7 จุดดังนี้
– Yi = [2 0 3 4 5 3 1]; Xi = [0 1 2 3 4 5 6]
• จงคํานวณ Third Degree Polynomial ที่
จะ Fit Data เหล่านี้
การคํานวณ Cubic Spline
Interpolation (3)
y0
y
1
เราต้องใช้ Cubic Polynomial 2 ต ัวแรก Fit 4 จุดแรก
ต ัวที่ 2 Fit 4 จุดถ ัดไป โดยจุดที่ 4 เป็นจุดร่วม
• Polynomial ตัวแรก คํานวณได ้ดังนี้
2 = a 0
0 = a + a + a + a
0
1
2
3
3 = a + 2 a + 4 a + 8 a 0
1
2
3
4 = a + 3 a + 9 a + 27 a 0
1
2
3
• แก ้สมการได ้
2
3
y = 2 − 6.8333 x + 6 x −1.1667 x 0
• Polynomial ตัวที่สอง คํานวณได ้ดังนี้
4 = a + 3 a + 9 a + 27 a 0
1
2
3
5 = a + 4 a +16 a + 64 a 0
1
2
3
3 = a + 5 a + 25 a +125 a 0
1
2
3
1 = a + 6 a + 36 a + 216 a 0
1
2
3
• แก ้สมการได ้
2
3
y = −47 + 35 x − 7.5 x + 0.5 x 1
Cubic Spline Int.(6)
Cubic Spline Int.(7)
Cubic Spline Int.(8)
• สิ่งที่เราต ้องการคือทําให ้รอยต่อราบเรียบ
– โดยการกําหนดให ้ค่า First Derivative ที่ปลายของ
Polynomial ตัวแรก เท่ากับค่า First Derivative ที่จุด
ต ้นของ Polynomial ตัวที่ 2
– อีกนัยหนึ่ง คือบังคับให ้ค่า First Derivative ที่จุดร่วม
ของสอง Polynomial ที่มาต่อกัน มีค่าเท่ากัน
– ในกรณีเราสามารถสร ้าง 4 สมการ เพื่อหา 4
Coefficient ได ้จากเพียงค่าของ Function ที่สองจุด
และค่าของ First Derivative ที่สองจุดนั้น (4 ค่า รวม)
• กล่าวคือ แต่ละช่วงของ Data (ระหว่างสองจุด) เราจะคํานวณ
Third Degree Polynomial หนึ่งตัว
• พิจารณาจาก Data n จุดของ xii=1,..,n คือ yi;
i=1,..,n เราต ้องการหา Cubic Polynomial,
Si(x) ทั้งหมด n-1 function เพื่อทําการ
Interpolate ค่าระหว่างจุด ในแต่ละช่วงของ
สองจุดที่ติดกัน
s ( x); x ≤ x < x 1
1
2
s ( x); x ≤ x < x S( x)
2
2
3
=
s ( x);
n−
xn− ≤ x < x
1
1
n
s ( x)
i
= a ( x
i
− x )3
i
+ b ( x
i
− x )2
i
+ c ( x
i
− x ) i + d ; i
i
= ,
1 ,...,
2
n −1
• สมการ Polynomial ที่ใช ้เป็นแค่การเปลี่ยน
Variable โดยเลื่อน (Delay) สมการจากจุด
xi ให ้มาอยู่ที่ตําแหน่ง ศูนย์
• ค่า First และ Second Derivative ของ
แต่ละ Polynomial สามารถแสดงได ้ดังนี้
s ( x) = a ( x − x )3 + b ( x − x )2 + c ( x − x ) + d i
i
i
i
i
i
i
i
s '( x) = a
3 ( x − x )2 + b
2 ( x − x ) + c
i
i
i
i
i
i
s ''( x) = 6 a ( x − x ) + b 2
i
i
i
i
• ถ ้าจุด xi เป็นจุดร่วมระหว่างสอง
Polynomial กล่าวคือ
s ( x ) = s ( x ) i
i
i 1
−
i
• และที่จุด xi เราจะได ้ค่าของ Function คือ
y = s ( x ) = a ( x − x )3 + b ( x − x )2 + c ( x − x ) + d i
i
i
i
i
i
i
i
i
i
i
i
i
y = d
i
i
• นอกจากนี้ เราได ้(สมมุติว่าแต่ละจุดสุ่ม
ตัวอย่างด ้วยระยะห่างเท่ากัน)
y = s ( x )
−
= a ( x
−
− x )3
−
+ b ( x
−
− x )2
−
+ c ( x
−
− x )
−
+ d
i
i 1
i
i 1
i
i 1
i 1
i
i 1
i 1
i
i 1
i 1
−
y = d = a h 3
−
+ b h 2
−
+ c h
−
+ d ; h
−
= x − x ; i
−
=
,...,
3
,
2
n
i
i
i 1
i 1
i 1
i 1
i
i 1
• เราสร ้างสมการจากการกําหนด First
Derivative ของจุดต่อให ้เท่ากัน
s '( x ) = s '( x )
•
−
ดังนั้น เราได
i
้ i
i 1
i
s '
i
( x) = 3 a ( x
i
− x )2
i
+ 2 b ( x
i
− x ) i + ci
s ' ( x )
i
i
= ci = s '( x )
i−
i
= 3
2
ai− h + 2 bi− h + c ; i−
i =
,...,
3
,
2
n −1
1
1
1
1
• นอกจากนี้แล ้ว ค่า Second Derivative
จะต ้องต่อเนื่องกันตลอดช่วง
s ''( x )
i
i+
= s ''( x );
i+
i+
i = ,
1 ,...,
2
n −1
1
1
1
• แต่ค่า s ''( x) = 6 a ( x − x ) + b 2
i
i
i
i
• ดังนั้น
s ''( x )
b
i
i
= 2 i
• และ
s ''( x )
2 b
i 1
+
i
=
1
+
i 1
+
s ''( x )
+
= 6 a ( x + − x ) + b 2
= 6 a h + b
2
i
i 1
i
i 1
i
i
i
i
• จาก
s ''( x )
i
i +
= s ''( x );
i +
i +
i = ,
1 ,...,
2
n −1
1
1
1
• เราได ้
b
2 + = 6 a h + b
2
i 1
i
i
• เพื่อให ้สมการดูง่าย เรากําหนด
M = s ''( x )
i
i
i
• ดังนั้น
b = M / 2
i
i
• และที่ได ้ก่อนหน้านี้ d = y
i
i
• ส่วน ai และ ci สามารถเขียนใหม่ได ้เป็น
M +1 − M
b
2 +1 = 6 a h + b
2 a
i
i
=
i
i
i
i
6 h
d = a h 3
2
−1
+ b h
−1
+ c h
−1 + d
i
i
i
i
i −1
3
2
y +1 − y
M +1 + 2 M
d +1 = a h + b h + c h + d c i
i
i
i
=
−
h
i
i
i
i
i
i
h
6
• เราสรุปสูตรในการคํานวณดังนี้
M +1 − M
i
i
a =
i
6 h
Mi
b =
i
2
y +1 − y
M +1 + 2 M
i
i
i
i
c =
−
h
i
h
6
d = y
i
i
• เมื่อเขียนในรูปของ Matrix เราได ้
• จาก
s '( x
i
i+ ) = 3
2
a h
i
+ 2 b h
i
+ ci = s '( x )
i+
i+
= c
1
1
1
i 1
+
Mi+ − Mi
Mi
yi+ − yi Mi+ + Mi
yi+ − yi
+
M i+ + Mi
1
2
2
2
3
+
h
h
h
h
+ 2
1
1
2
1
2
1
+
−
=
−
6 h
2
h
6
h
6
h ( Mi
yi − yi+ +
+
y
M
i
i+ + M i+
=
+
1
2 )
2
4
1
2
6
h
M i +
6 yi − 2 yi+ + yi
4
1
+2
M i+ + Mi+ =
;
i = ,
1
,..,
3
,
2
n − 2
1
2
h
h
• สามารถเขียนเป็นสมการ Matrix ได ้ดังนี้
M 1
•
1 4 1 0 0 0 0 0 M
2
2
y 1 − y 2 + y 3
0
1
4
1 0 0 0 0 M
2
3
y 2 − y 3 + y 4
0 0 1 4 0 0 0 0 M
2
4
y 3 − y 4 + y
6
5
=
2
0 0 0 0 4 1 0 0
h
M
y
2 y
y
n−3
n −4 −
n −3 +
n −2
0 0 0 0 1 4 1 0 M
y
2 y
y
n −2
n−3 −
n −2 +
n −1
0 0 0 0 0 1 4 1 M
y
2 y
y
n −1
n −2 −
n −1 +
n
Mn
• ระบบประกอบไปด ้วย n-2 สมการและ n unknown
ดังนั้นเราต ้องการอีก สอง Condition เพื่อที่
สามารถจะแก ้สมการได ้
– สอง Condition สามารถเลือกได ้หลายแบบ ทําให ้เกิด
Variation ของ Cubic Spline Interpolation หลาย
วิธี
• ในที่นี้จะกล่าวถึง Spline สามแบบ ตาม
สอง Condition ที่กําหนดเพิ่มเติม
– Natural Spline
• โดยการกําหนด M1=Mn=0
– Parabolic Runout Spline
• โดยการกําหนด M1=M2 และ Mn=Mn-1
– Cubic Runout Spline
• โดยการใช ้ M1=2M2-M3 และ Mn=2Mn-1-Mn-2
• ในที่นี้จะกล่าวรายละเอียดเฉพาะ Natural
Spline
• Natural Spline
– เมื่อให ้ M1=Mn=0 Matrix จะลดรูปเหลือ n-2
สมการ และ n-2 Unknown ดังนี้
4 1 0 0 0 0 M
2
2
y 1 − y 2 + y 3
1
4
1 0 0 0
M
y
2
3
2 −
y 3 + y
4
0 1 4 0 0 0 M
y 2
4
3 −
y 4 + y
5
6
=
2
h
0 0 0 4 1 0 M
y
2 y
y
n−3
n−4 −
n−3 +
n−2
0 0 0 1 4 1 M
y
2 y
y
n−2
n−3 −
n−2 +
n−1
0 0 0 0 1 4 M
y
2 y
y
n−1
n−2 −
n−1 +
n
– เมื่อเราแก ้สมการได ้ค่า Mi เราสามารถคํานวณ
ค่า Coefficient ของแต่ละ Polynomial ได ้
• สังเกตุว่า Coefficient Matrix ของระบบมีค่าใน
ส่วน Diagonal ที่เป็นค่าคงที่ ซึ่ง Matrix นี้เป็น
Matrix พิเศษ เรียก Toeplitz Matrix
– Toeplitz Matrix สามารถแก ้ปัญหาได ้ โดยใช ้ O(n2) Computation Time แทนที่จะเป็น O(n3)
• Algorithm ที่ใช ้คือ Levinson Algorithm
– Toeplitz Matrix สามารถทํา LU Decomposition
โดยใช ้ O(n2) เช่นเดียวกัน
• รายละเอียดของคุณสมบัติพิเศษของ Matrix นี้
และ Levinson Algorithm อยู่นอกขอบเขตของ
วิชานี้ ผู ้สนใจสามารถศึกษาเพิ่มเติมได ้จากตํารา
ด ้าน Linear Algebra และ Numerical Method
• จากตัวอย่างเดิม เราจะใช ้ Spline มาทําการ Fit Data ในกรณีนี้ n=7, h = 1, M0=M7=0
– Yi = [2 0 3 4 5 3 1]; Xi = [0 1 2 3 4 5 6]
• เราแก ้สมการ Matrix ดังนี้
4 1 0 0 0 M 2
2 − 2⋅0 +
3
5
1
4
1
0
0
M
0
3
− 2⋅3+ 4
−
2
0 1 4 1 0 M
4
= 63− 2⋅4 + 5 = 6 0
0 0 1 4 1 M 5
4 − 2⋅5 +
3
− 3
0 0 0 1 4 M
5 2 3 1
0
6
− ⋅ +
• และได ้คําตอบคือ
T
M = [ ,
0
.
8
,
9923 − .
5
,
9692 2
,
8846
.
5
−
1
,
5692
.
,
3923
.
0]
M = [ ,
0
.
8
,
9923 5
−
,
9692
.
.
2
,
8846 − .
5
.
1
,
5692
,
3923
]
0
• ดังนั้น Coefficient ของ Cubic ทั้ง 6 จะ
เป็น
M i − M
1
ai =
+
i = 1
[ .4987,−2.
1
,
4936 .
,
4756 −1.
1
,
4090 .
,
1603 −.
]
2321
6 h
b
M
i =
/ 2
i
= [ ,
0 .
4
,
4962 − .
2
.
1
,
9846
,
4423 − .
2
0
,
7846 .
]
6962
yi+ − yi Mi+ + 2 Mi
1
1
ci =
−
h
h
6
= [−3.4987,0.
,
9974 2.
,
5090 0.9667,−0.
,
3756 −2.
]
4641
d
y
i =
i = [
,
3
,
0
,
2
]
3
,
5
,
4
• >> p=[a b c d]
• p =
• 1.4987 0 -3.4987 2.0000
• -2.4936 4.4962 0.9974 0
• 1.4756 -2.9846 2.5090 3.0000
• -1.4090 1.4423 0.9667 4.0000
• 1.1603 -2.7846 -0.3756 5.0000
• -0.2321 0.6962 -2.4641 3.0000
• ต่อไปเราจะลอง Plot แต่ละ Polynomial ในแต่ละช่วง
ท ั้งหมด 6 Polynomial และ 6 ช่วง
Natural Spline Interpolation
Natural Spline Interpolation = R;
First Der = G; Second Der = B
Natural Spline Interpolation = R;
First D = G; Second D = B vs 6th D Poly = K
ปกติแนวโน ้มของ Polynomial ที่มี Degree สูงจะเกิด Overshoot แต่ Spline จะให ้ Curve ที่ราบเรียบกว่า และใกล ้เคียงความจริง
y = 0.0347 6
x − 0 6375
.
5
x + .
4 4931 4
x −
.
15 3125 3
x +
.
25 4722 2
x −
.
16 05 x + 2
• บางครั้ง Data ที่เราเก็บได ้ กระจาย และการ
ทํา Interpolation ด ้วย Polynomial จะไม่
เหมาะสม
• การกระจายของ Data อาจจะเกิดจากความ
ไม่แน่นอนในการวัด หรือเป็นลักษณะ
Random
• อาจจะเกิดจาก Noise ในการวัด
– การ Fit ด ้วย Polynomial หรือแม ้แต่ Spline
จะให ้คําตอบที่ไม่ตรงกับความจริง
Y
X
Y
X
Least-Squares Regression
• ในการนี้ การประมาณค่าโดยใช ้ Function ง่ายๆ เช่น
เส ้นตรง หรือ Exponential จะเหมาะสมกว่า
– โดยเฉพาะถ ้าเรารู ้พฤติกรรมของระบบอยู่บ ้าง และคาดหวังว่า Data ที่ได ้ควรจะมีลักษณะอย่างไร
• การหาสมการที่จะ Fit ที่สุด โดยมีค่า Error ตํ่าสุด เรา
เรียกเป็นการทํา Regression
• กรณีของสมการเส ้นตรง (สําหรับตัวแปรเดียว)เราเรียก
Linear Regression
– ที่ถูกควรเรียก Simple Linear Regression ใช ้สําหรับตัวแปรเดียว
จะเป็นสมการเส ้นตรงในสองมิติ
• เนื่องจากมี Multiple Linear Regression ด ้วยสําหรับกรณีหลายตัว
แปร ซึ่งผลจะเป็น Linear Equation ในหลายมิติ
– สมการเส ้นตรงคือ y=ax+b (บางตําราใช ้ y = a + bx ซึ่งในกรณีนี้
ต ้องสลับค่า a และ b ในการคํานวณที่จะกล่าวต่อไป)
– Parameter 2 ตัวที่ต ้องหาคือ a = slope และ b = y-intercept
Least Square Regression
• สมการที่ Fit ที่สุดคือให ้ Error รวมตํ่าสุด
เรามักจะใช ้วิธีของ Least-Square เรียก
Ordinary Least Square Regression
(OLS) (หรือ Linear Least Square)
– ผลรวมของ Error ยกกําลังสองของแต่ละจุด
ของ Data เทียบกับเส ้นตรงที่ใช ้ มีค่าตํ่าสุด
• Linear Regression ใช ้กันมากในทางสถิติ
เพื่อหาความสัมพันธ์แบบเส ้นตรงของ
Random Variable สองตัว
• Linear Regression ประเภทอื่นๆก็มีใช ้กัน
อยู่ แต่ OLS จะนิยมที่สุด
Regression
Y
Error
X
Square Regression (OLS)
• ค่า a และ b หาได ้จากสมการ Summation ของ
Error ยกกําลังสอง ของทุกจุด
– ค่าที่ตํ่าสุดหาได ้จากการหาค่า Derivative ของสมการ
และตั้งให ้เท่ากับ 0 (จุด Minima)
• ทั้งสอง Unknown คือ a และ b หาได ้จากสมการ
Derivative สองสมการที่ตั้งให ้เท่ากับ 0 ดังนี้
– df(a,b)/da = 0
– df(a,b)/db = 0
– f(a,b) คือ Sum of Square Error Function
• อีกค่าที่ใช ้ในทางสถิติคือค่า r = correlation coefficient เป็นตัวบอกว่าเส ้นตรงที่ใช ้มัน Fit ได ้ดีเพียงไร, r จะมีค่าระหว่าง [-1,1]
Regression
e
y
ax
b i
n
i =
i −
i −
; = ,
1 ,...,
2
Regression line
n
n
f ( a, b) = 2
e
y
ax
b
(x
i
= ( i − i − 2)
i,yi)
i=1
i=1
yi
n
ei
df
axi+b
= −2[( y ax b x
i −
i −
) ]
i
= 0
da
i=1
n
df = −2( y ax b
i −
i −
) = 0
x
db
i
i=1
n x y
x
y
i
i − i
a =
i
สมมุติเราได้ Data Pair (xi,yi);
n 2
x
x
i − (
2
)
i
i = 1,2,…,n ท ั้งหมด n จุด
b = y − ax
Variable X และ Y อาจจะเป็น
n x y
x
y
i
i − i
ได้ท ั้ง Continuous และ
r =
i
Discrete
n 2
x
x
n
y
y
i − (
2
)
i
2 i −( 2)
i
n
− 2[( y ax b x
− 2[( y − ax − b)] = 0
i −
i −
) ]
i
= 0
i
i
i 1
=
i 1
=
n
n
n
n
n
2
y x a x b x
− − =
i
i −
i − i =
0
(1)
y
a
x
nb
0
i
i
i 1
=
i 1
=
i 1
=
i 1
=
i 1
=
r
eplace b in
(1)
1 n
1 n
b
n
n
n
n
n
=
y − a x = Y − aX
1
1
2
n
i
y x a x
y
a
x
x
i
i −
i − i −
i
n
i
1
i
i = 0
=
i 1
=
n
n
i 1
=
i 1
=
i 1=
i 1
=
i 1=
2
n
1 n
n
n
1
n
2
y x
y
x
a
x
x
i
i −
i i =
n
i −
i
n
i 1
=
i 1
=
i 1
=
i 1
=
i 1
=
2
n
n
n
n
n
2
n y x
y
x
a n
x
x
i
i − i i =
i −
i
i 1
=
i 1
=
i 1
=
i 1
=
i 1
=
n
n
n
n
x y
x
y
i
i − i i
i 1
=
i 1
=
i 1
a =
=
2
n
n
2
n x
x
i −
i
i 1
=
i 1=
R, r : Correlation Coefficient
ส่วน Correlation Coefficient คือ
Pearson Product-Moment Correlation Coefficient นิยามว่าเท่าก ับอ ัตราส่วนของค่า Covariance ต่อผลคูณของค่า
Standard Deviation ของท ั้งสอง Variable (ของต ัวอย่าง) และ สามารถแสดงได้ว่ามีค่า
r = CXY
S S
X
Y
n x y
x
y
i
i − i
r =
i
n 2
x
x
n
y
y
i − (
2
)
i
2 i − ( 2)
i
r = 1 หรือ -1 แสดงว่ามีความสัมพันธ์แบบเส ้นตรง
อย่างสมบูรณ์ (ในเชิงบวก หรือในเชิงลบ)
ถ ้า r เป็นศูนย์แสดงว่าไม่มีความสัมพันธ์กันเลย
• ในกรณีที่เส ้นตรงไม่เหมาะสมที่จะนํามาใช ้
เราสามารถจะใช ้ Function อื่นมาทํา
Regression เช่น
– Exponential Model
– Power Equation
– Saturation-Growth-Rate Equation
– Polynomial Regression
• รายละเอียดอยู่นอกเหนือวิชานี้
• 1. จากการเก็บข ้อมูลตัวอย่าง วิชา CPE 332 ระหว่าง
คะแนน ที่นักศึกษาได ้ กับจํานวนรวมเป็นชั่วโมงที่
นักศึกษาขาดเรียน หรือมาสาย ได ้ข ้อมูลดังตาราง
ข ้างล่าง
Data
Hour
Grade
Data
Hour
Grade
1 5 72 6 10 40
2 8 51 7 7 68
3 2 86 8 6 63
4 6 75 9 12 46
5 4 88 10 8 65
– จงใช ้ OLS Regression แสดงสัมพันธ์ระหว่างตัวแปรทั้ง
สอง ทําการ Plot Scatter Diagram และเส ้นตรงที่ได ้
จากนั้นให ้หาค่า Correlation Coefficient
Example
10
10
1
n =
;
10 x
X
x
i =
;
68
=
i = .68
i 1
10
=
i 1
=
10
1 10
y
Y
y
i =
;
654
=
i = .
65 4
i 1
10
=
i 1
=
10
10
10
x y
x
y
i
i =
;
4068
2
i = ;
538
2
i =
;
45084
i 1
=
i 1
=
i 1
=
n
n
n
n
x y
x
y
i
i − i i
10
i=
i=
i=
× 4068 − 68×654
1
1
1
a =
=
= − 0159
.
5
2
n
n
10× 538 − 682
2
n x
x
i −
i
i 1
=
i 1=
b = Y − a X =
.
65 4 − (− .
5
)
0159 × .
6 8 =
.
99 5079
n x y
x
y
i
i − i
r =
i
2
n x
x
n
y
y
i − (
)2
2
i
i −( )2
i
10 × 4068 − 68× 654
=
= − 9069
.
0
10 × 538 − 682 10× 45084 − 6542
y=-5.0159x + 99.5079
r = -0.9069
• Download
• Homework 12 ส่งก่อนวันพุธหน ้าที่ 3 ธ.ค.
ก่อน 12.00 น. (ส่งที่สาขา ใส่กล่อง ห ้อง 5-
310)
• Prepare For Exam
– ข ้อสอบมี 9 ข ้อ ทําทุกข ้อ (นําเครื่องคิดเลขมาด ้วย)
– เรื่องก่อน Midterm จะออก 3 ข ้อ จาก 6 บทแรก + 6
ข ้อหลัง MT
• 1. Function Approximation (1 ข ้อ)
– Taylor Series/McLauren Series
• 2. Roots of Function (1 ข ้อ)
– Bisection
– Newton-Ralphson
• 3. Linear Equations (1 ข ้อ) เรื่องใดเรื่องหนึ่ง
– Gauss Elimination
– Gauss Jordan (Including Matrix Inverse)
– Gauss Seidel
– LU Decomposition (Crout Decomposition)
• Prepare For Exam
• 4. Numerical Integration (1 ข ้อ) ไม่ออก Finite Difference
– Trapezoidal Rule
– Simpson 1/3 Rule
– Richardson Extrapolation
• 5. ODE (1 ข ้อ)
– Classical Forth Order RK Method เรื่องเดียว
• 6. Curve Fitting (1 ข ้อ)
– Natural Spline
– OLS Regression
Formulas
ดูใน MT+ต่อไปนี้
• Minimum 40% เพื่อที่จะผ่านวิชานี้
• A จะต้องได้ 80% ขึ้นไป